هوش مصنوعی

هشدار دادستان‌های کل ایالات به غول‌های هوش مصنوعی درباره اصلاح خروجی‌های گمراه‌کننده

پس از وقوع مجموعه‌ای از رویدادهای نگران‌کننده مرتبط با سلامت روان کاربران در تعامل با چت‌بات‌های هوش مصنوعی، گروهی از دادستان‌های کل ایالت‌های آمریکا در نامه‌ای خطاب به شرکت‌های پیشگام حوزه هوش مصنوعی، نسبت به اصلاح «خروجی‌های توهمی» هشدار دادند و اعلام کردند در صورت عدم اصلاح این موارد، ممکن است قوانین ایالتی نقض شود.

این نامه که به امضای ده‌ها دادستان کل ایالت‌ها و مناطق تحت نظر انجمن ملی دادستان‌های کل آمریکا رسیده، از شرکت‌هایی مانند مایکروسافت، اوپن‌ای‌آی، گوگل و ۱۰ شرکت بزرگ دیگر فعال در هوش مصنوعی می‌خواهد تا طیف وسیعی از تدابیر ایمنی داخلی جدید را برای حمایت از کاربران خود اجرا کنند. شرکت‌هایی مانند آنتروپیک، اپل، چای AI، کاراکتر تکنولوژیز، لوکا، متا، نومی AI، پرپلکسیتی AI، رپلیکا و xAI نیز در این نامه مورد خطاب قرار گرفتند.

این نامه در حالی منتشر شده که بحث بر سر مقررات‌گذاری هوش مصنوعی بین دولت فدرال و ایالت‌ها شدت گرفته است.

از جمله تدابیر خواسته‌شده در این نامه، ممیزی شفاف و بی‌طرفانه مدل‌های بزرگ زبانی با هدف شناسایی نشانه‌های خروجی‌های توهمی یا چاپلوسانه است. همچنین نامه درخواست کرده تا سازوکارهای جدید گزارش‌دهی رخدادها برای اطلاع‌رسانی به کاربران در زمانی که چت‌بات‌ها خروجی‌های روانی زیان‌آور تولید می‌کنند، ایجاد شود. گروه‌های انجام‌دهنده این ممیزی‌ها که می‌توانند شامل نهادهای دانشگاهی و اجتماعی باشند، باید بتوانند سیستم‌ها را پیش از انتشار ارزیابی کنند و یافته‌های خود را بدون نیاز به تایید قبلی شرکت منتشر کنند.

در این نامه آمده است: «هوش مصنوعی تولیدی (GenAI) پتانسیل تغییر مثبت شیوه کار جهان را دارد، اما همچنین می‌تواند به آسیب‌های جدی منجر شود، به‌ویژه برای گروه‌های آسیب‌پذیر.» در ادامه نامه به مجموعه‌ای از حوادث رسانه‌ای‌شده طی سال گذشته اشاره شده است — از جمله خودکشی و قتل — که در آن‌ها خشونت به استفاده بیش از حد از هوش مصنوعی نسبت داده شده است. «در بسیاری از این موارد، محصولات GenAI خروجی‌هایی چاپلوسانه و توهمی ایجاد کرده‌اند که یا به توهمات کاربران دامن زده‌اند یا کاربران را نسبت به توهمی نبودن خود مطمئن کرده‌اند.»

در ادامه، دادستان‌های کل پیشنهاد داده‌اند که شرکت‌های هوش مصنوعی، رویکردی مشابه با نحوه برخورد شرکت‌های فناوری با رخدادهای امنیت سایبری اتخاذ کنند — یعنی ایجاد سیاست‌ها و فرآیندهای شفاف گزارش‌دهی درباره رخدادهای مرتبط با سلامت روان.

طبق متن نامه، شرکت‌ها باید «جدول‌زمانی شناسایی و واکنش به خروجی‌های چاپلوسانه و توهمی» را توسعه و منتشر کنند. همچنین شبیه به آنچه اکنون برای نقض داده‌های کاربران انجام می‌شود، شرکت‌ها باید در صورتی که کاربران در معرض خروجی‌های احتمالا زیان‌آور یا توهمی قرار گرفته‌اند، به صورت فوری، شفاف و مستقیم این موضوع را به آن‌ها اطلاع دهند.

درخواست دیگر این است که شرکت‌ها «آزمایش‌های ایمنی معقول و مناسب» روی مدل‌های GenAI انجام دهند تا «اطمینان حاصل شود این مدل‌ها خروجی‌های چاپلوسانه یا توهمی مضر تولید نمی‌کنند». این آزمون‌ها باید پیش از در دسترس قرار گرفتن مدل‌ها به عموم انجام شود.

خبرنگار نتوانست پیش از انتشار این گزارش، نظر شرکت‌هایی همچون گوگل، مایکروسافت یا اوپن‌ای‌آی را جویا شود. در صورت دریافت پاسخ، این مقاله به‌روزرسانی خواهد شد.

در سطح ملی، شرکت‌های فناوری فعال در حوزه هوش مصنوعی با استقبال بسیار گرم‌تری از سوی دولت فدرال مواجه شده‌اند.

دولت ترامپ تا کنون آشکارا حمایت خود را از هوش مصنوعی اعلام کرده است و طی سال گذشته تلاش‌های متعددی برای وضع توقف سراسری مقررات‌گذاری هوش مصنوعی در سطح ایالتی انجام گرفته است. تاکنون این تلاش‌ها به دلیل فشار از سوی مسئولین ایالتی به نتیجه نرسیده است.

با این حال، ترامپ روز دوشنبه اعلام کرد که هفته آینده فرمان اجرایی جدیدی را صادر خواهد کرد که توان دولت‌های ایالتی برای مقررات‌گذاری در حوزه هوش مصنوعی را محدود می‌کند. رئیس جمهور در مطلبی در شبکه اجتماعی خود اعلام کرد امیدوار است این فرمان از «ویران شدن هوش مصنوعی در ابتدای راه» جلوگیری کند.

علیرضا

علیرضام، یه عشق تکنولوژی که همیشه دنبال خبرای جدید و داغ دنیای دیجیتال می‌گرده

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا